Artificial intelligence(AI) systems based on deep neural networks (DNNs) and machine learning (ML) algorithms are increasingly used to solve critical problems in bioinformatics, biomedical informatics, and precision medicine. However, complex DNN or ML models that are unavoidably opaque and perceived as black-box methods, may not be able to explain why and how they make certain decisions. Such black-box models are difficult to comprehend not only for targeted users and decision-makers but also for AI developers. Besides, in sensitive areas like healthcare, explainability and accountability are not only desirable properties of AI but also legal requirements -- especially when AI may have significant impacts on human lives. Explainable artificial intelligence (XAI) is an emerging field that aims to mitigate the opaqueness of black-box models and make it possible to interpret how AI systems make their decisions with transparency. An interpretable ML model can explain how it makes predictions and which factors affect the model's outcomes. The majority of state-of-the-art interpretable ML methods have been developed in a domain-agnostic way and originate from computer vision, automated reasoning, or even statistics. Many of these methods cannot be directly applied to bioinformatics problems, without prior customization, extension, and domain adoption. In this paper, we discuss the importance of explainability with a focus on bioinformatics. We analyse and comprehensively overview of model-specific and model-agnostic interpretable ML methods and tools. Via several case studies covering bioimaging, cancer genomics, and biomedical text mining, we show how bioinformatics research could benefit from XAI methods and how they could help improve decision fairness.
translated by 谷歌翻译
Legal Prompt Engineering (LPE) or Legal Prompting is a process to guide and assist a large language model (LLM) with performing a natural legal language processing (NLLP) skill. Our goal is to use LPE with LLMs over long legal documents for the Legal Judgement Prediction (LJP) task. We investigate the performance of zero-shot LPE for given facts in case-texts from the European Court of Human Rights (in English) and the Federal Supreme Court of Switzerland (in German, French and Italian). Our results show that zero-shot LPE is better compared to the baselines, but it still falls short compared to current state of the art supervised approaches. Nevertheless, the results are important, since there was 1) no explicit domain-specific data used - so we show that the transfer to the legal domain is possible for general-purpose LLMs, and 2) the LLMs where directly applied without any further training or fine-tuning - which in turn saves immensely in terms of additional computational costs.
translated by 谷歌翻译
声词嵌入(AWES)的模型学会将可变长度的口语段映射到固定差异矢量表示上,以便在嵌入空间附近预计,同一单词的不同声学示例。除了他们的语音技术应用外,AWE模型还显示出可以预测各种听觉词汇处理任务的人类绩效。当前的敬畏模型基于神经网络,并以自下而上的方法进行了培训,该方法集成了声音提示,以构建给定声或符号监督信号的单词表示。因此,这些模型在学习过程中不会利用或捕获高级词汇知识。 %并捕获有关单词形式的低级信息。在本文中,我们提出了一个多任务学习模型,该模型将自上而下的词汇知识纳入了敬畏的训练程序中。我们的模型学习了声学输入和词汇表示之间的映射,该表示除了基于自下而上的表单监督外,还编码了高级信息,例如单词语义。我们尝试三种语言,并证明合并词汇知识可以改善嵌入空间的可区分性,并鼓励模型更好地分开词汇类别。
translated by 谷歌翻译
多目标优化中的当前最新技术假设具有给定的效用函数,可以交互性地学习效用函数或试图确定完整的帕累托前部,需要对首选结果进行后启发。但是,现实世界中的问题的结果通常是基于隐式和明确的专家知识,因此很难定义效用功能,而交互式学习或启发后需要重复且昂贵的专家参与。为了减轻这种情况,我们使用偏好学习的专家知识来离线学习实用功能。与其他作品相比,我们不仅使用(成对)结果偏好,而且还使用有关实用程序功能空间的粗略信息。这使我们能够改善效用函数估计,尤其是在使用很少的结果时。此外,我们对实用程序功能学习任务中发生的不确定性进行建模,并通过整个优化链传播它们。我们学习公用事业功能的方法消除了重复专家参与的需求,同时仍导致高质量的结果。我们显示了在4个域中提出的方法的样本效率和质量提高,尤其是在替代效用函数无法精确捕获真正的专家效用函数的情况下。我们还表明,要获得良好的结果,重要的是要考虑诱发的不确定性并分析偏置样本的效果,这在现实世界中是一个常见的问题。
translated by 谷歌翻译
用于生存预测的深层神经网络在歧视方面超过了经典方法,这是患者根据事件的秩序。相反,诸如COX比例危害模型之类的经典方法显示出更好的校准,即对基础分布事件的正确时间预测。特别是在医学领域,预测单个患者的存活至关重要,歧视和校准都是重要的绩效指标。在这里,我们提出了离散的校准生存(DC),这是一个新型的深层神经网络,用于歧视和校准的生存预测,在三个医疗数据集的歧视中优于竞争生存模型,同时在所有离散时间模型中实现最佳校准。 DC的增强性能可以归因于两个新型功能,即可变的时间输出节点间距和新颖的损耗项,可优化未经审查和审查的患者数据的使用。我们认为,DCS是临床应用基于深度学习的生存预测和良好校准的重要一步。
translated by 谷歌翻译
尽管蒙版语言模型具有高度性能,并且被NLP从业人员广泛采用,但它们不能轻易用于自回归语言建模(下一个单词预测和序列概率估计)。我们提出了一种基于LSTM的自回归语言模型,该模型使用融合(例如串联)使用前缀嵌入(来自验证的蒙版语言模型),以获得语言建模的更丰富的上下文表示。我们发现Fusion有助于可靠地降低困惑(16.74 $ \ rightarrow $ 15.80),甚至在从与培训数据的不同领域传输到数据集后,它甚至可以保留。我们还通过将其下一个单词的惊人估计与人类阅读时间相关联,评估了表现最佳的融合模型。与我们的期望相矛盾,尽管整体上的困惑程度有所改善,但相关性仍然与基线模型相同。最后,尽管我们专注于在文本上预先训练的语言模型作为融合的来源,但我们的方法可能会扩展到将表示为固定尺寸矢量表示的任何信息融合到自动回归语言模型中。这些包括例如句子外部信息是为知识库或多模式编码器的表示形式检索的。
translated by 谷歌翻译
安全政策改进(SPI)是在安全关键应用中脱机加强学习的重要技术,因为它以很高的可能性改善了行为政策。我们根据如何利用国家行动对的不确定性将各种SPI方法分为两组。为了关注软SPIBB(通过软基线自举的安全政策改进)算法,我们表明他们对被证明安全的主张不坚持。基于这一发现,我们开发了适应性,Adv-Soft SpibB算法,并证明它们是可以安全的。在两个基准上进行的广泛实验中,启发式适应性较低的SPOBB在所有SPIBB算法中都能表现出最佳性能。我们还检查了可证明的安全算法的安全保证,并表明有大量数据是必要的,以使安全界限在实践中变得有用。
translated by 谷歌翻译
本文介绍了更轻松的项目及其范围的概念概述。更轻松地专注于通过半自治的移动操纵器在灾难反应方案中支持紧急部队。具体来说,我们检查了操作员对系统的信任以及其使用所产生的认知负荷。我们计划讨论不同的研究主题,探讨共享的自主权,互动设计和透明度与信任和认知负担如何相关。另一个目标是开发非侵入性方法,以使用多级方法在灾难响应的背景下连续衡量信任和认知负荷。该项目由多个学术合作伙伴进行,专门从事人工智能,互动设计和心理学,以及灾难响应设备的工业合作伙伴和最终用户,用于制定项目和实验实验。
translated by 谷歌翻译
对于自然语言处理中的许多任务,将知识从一个域转移到另一个领域至关重要,尤其是当目标域中的可用数据量受到限制时。在这项工作中,我们在指定实体识别(NER)的背景下提出了一种新颖的域适应方法。我们提出了一种两步方法,该方法由可变基本模块和模板模块组成,该模块在简单的描述模式的帮助下利用了预训练的语言模型中捕获的知识。我们的方法简单而通用,可以在几次射击和零拍设置中应用。评估我们在许多不同数据集中的轻量级方法表明,它可以将最新基准的性能提高2-5%的F1分数。
translated by 谷歌翻译
语言模型预训练的最新进展利用大规模数据集创建多语言模型。但是,这些数据集中大多遗漏了低资源语言。这主要是因为网络上没有很好地表示口语,因此被排除在用于创建数据集的大规模爬网中。此外,这些模型的下游用户仅限于最初选择用于预训练的语言的选择。这项工作调查了如何最佳利用现有的预培训模型来为16种非洲语言创建低资源翻译系统。我们关注两个问题:1)如何将预训练的模型用于初始预培训中未包含的语言? 2)生成的翻译模型如何有效地转移到新域?为了回答这些问题,我们创建了一个新的非洲新闻语料库,涵盖16种语言,其中8种语言不属于任何现有评估数据集的一部分。我们证明,将两种语言转移到其他语言和其他领域的最有效策略是,以少量的高质量翻译数据微调大型预训练模型。
translated by 谷歌翻译